AI 核心術語 50 選

1. 人工智慧 (AI)
Artificial Intelligence
賦予機器模擬與執行人類智慧行為(如學習、推理)的廣泛科學領域。
2. 機器學習 (ML)
Machine Learning
AI 的核心分支,專注於讓電腦從資料中自動學習模式與規律,而無需明確編寫規則。
3. 深度學習 (DL)
Deep Learning
ML 的一種技術,使用多層人工神經網路來學習資料中複雜的抽象特徵。
4. 監督式學習
Supervised Learning
利用已標記的資料(帶有標準答案)進行訓練,讓模型學習輸入與輸出之間的對應關係。
5. 非監督式學習
Unsupervised Learning
沒有標記的資料中,讓模型自動探索並發現資料內在的結構或模式,如分群。
1 / 10
6. 強化學習
Reinforcement Learning
模型透過與環境互動和試錯來學習,以最大化累積獎勵為目標,常用於決策與控制。
7. 分類 (Classification)
監督式學習任務,目標是將輸入資料預測到一個預先定義的離散類別中(如垃圾郵件識別)。
8. 回歸 (Regression)
監督式學習任務,目標是預測一個連續的數值(如房價預測、氣溫預測)。
9. 人工神經網路 (ANN)
Artificial Neural Network
模仿生物神經網路結構的計算模型,由大量互聯的神經元組成,是深度學習的基礎。
10. 神經元 (Neuron)
ANN 中的基本計算單元,接收輸入訊號,經加權與激活函數處理後,產生輸出。
2 / 10
11. 權重 (Weight)
神經元之間連接的強度參數。在訓練過程中,模型透過不斷調整權重來學習。
12. 激活函數
Activation Function
為神經網路引入非線性的數學函數,使其能夠學習複雜的模式。
13. 損失函數
Loss Function
用來衡量模型預測值與真實值之間的差距(損失或誤差),是模型優化的目標。
14. 梯度下降法
Gradient Descent
一種優化演算法,沿著損失函數梯度的反方向逐步調整參數,以尋找損失的最小值。
15. 反向傳播
Backpropagation
一種高效計算神經網路中所有權重梯度的演算法,是訓練的核心。
3 / 10
16. 過擬合 (Overfitting)
模型對訓練資料過度學習,導致在未見過的新資料上表現不佳的現象。
17. 卷積神經網路 (CNN)
Convolutional Neural Network
一種特別擅長處理網格狀資料(如圖像)的深度學習模型,能有效提取空間特徵。
18. 自然語言處理 (NLP)
Natural Language Processing
AI 的一個領域,專注於讓電腦能夠理解、解釋和生成人類語言。
19. 詞元 (Token)
在 NLP 中,文本被切分成處理的最小單位,可以是一個單詞、子詞或字元。
20. 嵌入 (Embedding)
將離散項目(如單詞)轉換為稠密的數值向量,使語意相似的項目在空間中距離相近。
4 / 10
21. Transformer
一種基於自注意力機制的深度學習架構,實現了高效的並行計算,是現代LLM的基礎。
22. 自注意力機制
Self-Attention
Transformer的核心,允許模型在處理序列時,同時計算所有詞元間的相互關聯性權重。
23. 大型語言模型 (LLM)
Large Language Model
具有數十億以上參數的深度學習模型,在海量文本上預訓練,能執行各種複雜語言任務。
24. 生成式人工智慧
Generative AI
能夠根據輸入的提示,創造全新內容(如文字、圖像、音樂)的AI系統。
25. 提示詞 (Prompt)
提供給生成式AI模型的輸入指令或訊息,用來引導模型產生特定內容。
5 / 10
26. 提示詞工程
Prompt Engineering
設計和優化提示詞的藝術與科學,旨在讓生成式AI更準確、有效地產生期望的輸出。
27. 幻覺 (Hallucination)
指AI模型產生看似合理,但實際上是錯誤、捏造或無事實根據的資訊的現象。
28. 零樣本學習
Zero-shot Learning
模型在沒有任何範例的情況下,僅憑指令就能執行一項新任務的能力。
29. 少樣本學習
Few-shot Learning
在提示中提供少量(1到數個)範例,引導模型更好地理解並完成任務。
30. 思維鏈 (CoT)
Chain-of-Thought
一種高級提示技巧,引導模型在給出最終答案前,先逐步展示其推理過程
6 / 10
31. 微調 (Fine-tuning)
預訓練好的模型基礎上,使用特定領域的小型資料集進行額外訓練,使其更適應該領域。
32. 檢索增強生成 (RAG)
Retrieval-Augmented Generation
結合外部知識庫檢索與LLM生成,模型在回答前先查找資料,如同開卷考試。
33. 上下文 (Context)
模型在生成響應時所考慮的前文資訊或背景。上下文窗口決定了模型的記憶長度。
34. 多模態 (Multimodality)
指AI模型能夠同時處理和理解多種類型的資料,如文字、圖像、音訊等。
35. 擴散模型
Diffusion Model
一種強大的生成模型,透過從純噪聲中逐步去噪的過程來生成高品質數據,尤其在圖像領域。
7 / 10
36. 向量資料庫
Vector Database
專門用來儲存和高效查詢嵌入向量的資料庫,支援基於相似度的高效搜尋。
37. 應用程式介面 (API)
Application Programming Interface
定義了不同軟體之間互動與資料交換的規則與介面,是調用AI模型服務的橋樑。
38. API 金鑰 (API Key)
一個加密的字串,用於在呼叫API時驗證應用程式或使用者的身份與權限。
39. 光學字元辨識 (OCR)
Optical Character Recognition
從圖像或掃描文件中提取並識別其中的文字,將其轉換為可編輯的文本。
40. 工作流程自動化 (RPA)
Workflow Automation
利用軟體機器人模擬人類操作,自動執行重複性高、規則化的業務流程。
8 / 10
41. 代理人 (Agent)
在AI領域,指具備自主性與目標導向的智能體,能感知環境、決策並採取行動。
42. 上下文工程
Context Engineering
為AI智能體動態建構和提供完成任務所需上下文資訊與工具的技術。
43. 本地化大型語言模型
Local LLM
指在本地設備(如個人電腦)上部署並運行的LLM,以增強資料隱私與控制性。
44. 模型上下文協定 (MCP)
Model Context Protocol
一種開放標準,規範應用程式如何以統一格式向LLM提供任務相關的資訊與指令。
45. 專家系統
Expert System
早期AI的一種形式,將專家知識編碼成「如果-那麼」(if-then)的規則庫來做決策。
9 / 10
46. 電腦視覺 (CV)
Computer Vision
AI的一個分支,致力於訓練電腦「看懂」並理解數位圖像與影片中的內容。
47. 物件偵測
Object Detection
電腦視覺的一項任務,不僅要識別圖像中的物體,還要標示出它們的精確位置
48. 影像分割
Image Segmentation
比物件偵測更精細的CV任務,目標是將圖像中的每一個像素都分配到其所屬的物體類別。
49. 命名實體辨識 (NER)
Named Entity Recognition
NLP的一項核心任務,從文本中定位並分類預先定義好的命名實體,如人名、地名等。
50. 詞形還原
Lemmatization
NLP技術之一,將單詞的不同屈折形式還原為其字典中的基本形式(詞根)
10 / 10